home *** CD-ROM | disk | FTP | other *** search
/ Hacker's Secrets 4 / Hacker's Secrets 4.iso / crypto / rsacryp2.txt < prev    next >
Text File  |  1996-04-18  |  61KB  |  1,133 lines

  1.  
  2. Archive-name: cryptography-faq/rsa/part2
  3. Last-modified: 93/09/20
  4. Version: 2.0
  5. Distribution-agent: tmp@netcom.com
  6.  
  7.  
  8. (This document has been brought to you in part by CRAM.  See the
  9. bottom for more information, including instructions on how to
  10. obtain updates.)
  11.  
  12. ===
  13.  
  14.  
  15.                           Answers To
  16.                  FREQUENTLY ASKED QUESTIONS
  17.                  About Today's Cryptography
  18.  
  19.  
  20.  
  21.                           Paul Fahn
  22.                       RSA Laboratories
  23.                      100 Marine Parkway
  24.                    Redwood City, CA  94065
  25.  
  26.  
  27.  
  28.    Copyright (c) 1993 RSA Laboratories, a division of RSA Data Security,
  29.       Inc. All rights reserved.
  30.  
  31.    Version 2.0, draft 2f
  32.    Last update: September 20, 1993
  33.  
  34.  
  35.  
  36. ------------------------------------------------------------------------
  37.                          Table of Contents
  38.  
  39. [ part 2 ]
  40.  
  41. 3 Key Management 
  42.        3.1  What key management issues are involved in public-key 
  43.             cryptography? 
  44.        3.2  Who needs a key? 
  45.        3.3  How does one get a key pair? 
  46.        3.4  Should a public key or private key be shared among users? 
  47.        3.5  What are certificates? 
  48.        3.6  How are certificates used? 
  49.        3.7  Who issues certificates and how? 
  50.        3.8  What is a CSU, or, How do certifying authorities store their 
  51.             private keys? 
  52.        3.9  Are certifying authorities susceptible to attack? 
  53.        3.10  What if the certifying authority's key is lost or compromised? 
  54.        3.11  What are Certificate Revocation Lists (CRLs)? 
  55.        3.12  What happens when a key expires? 
  56.        3.13  What happens if I lose my private key? 
  57.        3.14  What happens if my private key is compromised? 
  58.        3.15  How should I store my private key? 
  59.        3.16  How do I find someone else's public key? 
  60.        3.17  How can signatures remain valid beyond the expiration dates of 
  61.              their keys, or, How do you verify a 20-year-old signature? 
  62.        3.18  What is a digital time-stamping service? 
  63.  
  64. 4 Factoring and Discrete Log 
  65.        4.1  What is a one-way function? 
  66.        4.2  What is the significance of one-way functions for cryptography? 
  67.        4.3  What is the factoring problem? 
  68.        4.4  What is the significance of factoring in cryptography? 
  69.        4.5  Has factoring been getting easier? 
  70.        4.6  What are the best factoring methods in use today? 
  71.        4.7  What are the prospects for theoretical factoring breakthroughs? 
  72.        4.8  What is the RSA Factoring Challenge? 
  73.        4.9  What is the discrete log problem? 
  74.        4.10  Which is easier, factoring or discrete log? 
  75.  
  76. 5 DES 
  77.        5.1  What is DES? 
  78.        5.2  Has DES been broken? 
  79.        5.3  How does one use DES securely? 
  80.        5.4  Can DES be exported from the U.S.? 
  81.        5.5  What are the alternatives to DES? 
  82.        5.6  Is DES a group? 
  83.  
  84.  
  85. --------------------------------------------------------------------
  86.  
  87.  
  88.  
  89. 3 Key Management
  90.  
  91. 3.1 What key management issues are involved in public-key cryptography?
  92.  
  93. Secure methods of key management are extremely important. In practice,
  94. most attacks on public-key systems will probably be aimed at the key 
  95. management levels, rather than at the cryptographic algorithm itself. 
  96. The key management issues mentioned here are discussed in detail in 
  97. later questions.
  98.  
  99. Users must be able to obtain securely a key pair suited to their efficiency 
  100. and security needs. There must be a way to look up other people's public 
  101. keys and to publicize one's own key. Users must have confidence in the 
  102. legitimacy of others' public keys; otherwise an intruder can either change 
  103. public keys listed in a directory, or impersonate another user. Certificates 
  104. are used for this purpose. Certificates must be unforgeable, obtainable in a 
  105. secure manner, and processed in such a way that an intruder cannot misuse 
  106. them. The issuance of certificates must proceed in a secure way, impervious 
  107. to attack. If someone's private key is lost or compromised, others must be 
  108. made aware of this, so that they will no longer encrypt messages under the 
  109. invalid public key nor accept messages signed with the invalid private key. 
  110. Users must be able to store their private keys securely, so that no intruder 
  111. can find it, yet the keys must be readily accessible for legitimate use. Keys 
  112. need to be valid only until a specified expiration date. The expiration date 
  113. must be chosen properly and publicized securely. Some documents need to have 
  114. verifiable signatures beyond the time when the key used to sign them has 
  115. expired.
  116.  
  117. Although most of these key management issues arise in any public-key 
  118. cryptosystem, for convenience they are discussed here in the context of RSA.
  119.  
  120.  
  121. 3.2 Who needs a key?
  122.  
  123. Anyone who wishes to sign messages or to receive encrypted messages must
  124. have a key pair. People may have more than one key. For example, someone
  125. might have a key affiliated with his or her work and a separate key for
  126. personal use. Other entities will also have keys, including electronic 
  127. entities such as modems, workstations, and printers, as well as 
  128. organizational entities such as a corporate department, a hotel 
  129. registration desk, or a university registrar's office. 
  130.  
  131.  
  132. 3.3 How does one get a key pair? 
  133.  
  134. Each user should generate his or her own key pair. It may be tempting within 
  135. an organization to have a single site that generates keys for all members who 
  136. request one, but this is a security risk because it involves the transmission 
  137. of private keys over a network as well as catastrophic consequences if an 
  138. attacker infiltrates the key-generation site. Each node on a network should be
  139. capable of local key generation, so that private keys are never transmitted 
  140. and no external key source need be trusted. Of course, the local key generation
  141. software must itself be trustworthy. Secret-key authentication systems, such 
  142. as Kerberos, often do not allow local key generation but instead use a 
  143. central server to generate keys.
  144.  
  145. Once generated, a user must register his or her public key with some
  146. central administration, called a certifying authority. The certifying 
  147. authority returns to the user a certificate attesting to the veracity of 
  148. the user's public key along with other information (see Questions 3.5 
  149. and following). Most users should not obtain more than one certificate for
  150. the same key, in order to simplify various bookkeeping tasks associated
  151. with the key.
  152.  
  153.  
  154. 3.4 Should a public key or private key be shared among users?
  155.  
  156. In RSA, each person should have a unique modulus and private exponent, i.e., 
  157. a unique private key. The public exponent, on the other hand, can be common 
  158. to a group of users without security being compromised. Some public exponents 
  159. in common use today are 3 and 2^{16}+1; because these numbers are small, 
  160. the public-key operations (encryption and signature verification) are fast 
  161. relative to the private key operations (decryption and signing). If one 
  162. public exponent becomes a standard, software and hardware can be optimized 
  163. for that value.
  164.  
  165. In public-key systems based on discrete logarithms, such as ElGamal,
  166. Diffie-Hellman, or DSS, it has often been suggested that a group of 
  167. people should share a modulus. This would make breaking a key more
  168. attractive to an attacker, however, because one could break every
  169. key with only slightly more effort than it would take to break a
  170. single key. To an attacker, therefore, the average cost to break a 
  171. key is much lower with a common modulus than if every key has a distinct 
  172. modulus. Thus one should be very cautious about using a common modulus; 
  173. if a common modulus is chosen, it should be very large. 
  174.  
  175.  
  176. 3.5 What are certificates?
  177.  
  178. Certificates are digital documents attesting to the binding of a public key 
  179. to an individual or other entity. They allow verification of the claim that 
  180. a given public key does in fact belong to a given individual. Certificates 
  181. help prevent someone from using a phony key to impersonate someone else.
  182.  
  183. In their simplest form, certificates contain a public key and a name. As
  184. commonly used, they also contain the expiration date of the key, the name 
  185. of the certifying authority that issued the certificate, the serial number 
  186. of the certificate, and perhaps other information. Most importantly, it 
  187. contains the digital signature of the certificate issuer. The most widely 
  188. accepted format for certificates is defined by the CCITT X.509 international 
  189. standard [19]; thus certificates can be read or written by any application 
  190. complying with X.509. Further refinements are found in the PKCS set of 
  191. standards (see Question 8.9), and the PEM standard (see Question 8.7). A 
  192. detailed discussion of certificate format can also be found in Kent [40].
  193.  
  194. A certificate is issued by a certifying authority (see Question 3.7) 
  195. and signed with the certifying authority's private key.
  196.  
  197.  
  198. 3.6 How are certificates used?
  199.  
  200. A certificate is displayed in order to generate confidence in the 
  201. legitimacy of a public key. Someone verifying a signature can also 
  202. verify the signer's certificate, to insure that no forgery or false 
  203. representation has occurred. These steps can be performed with greater 
  204. or lesser rigor depending on the context. 
  205.  
  206. The most secure use of authentication involves enclosing one or more 
  207. certificates with every signed message. The receiver of the message
  208. would verify the certificate using the certifying authority's public
  209. key and, now confident of the public key of the sender, verify the message's 
  210. signature. There may be two or more certificates enclosed with the message, 
  211. forming a hierarchical chain, wherein one certificate testifies to the 
  212. authenticity of the previous certificate. At the end of a certificate 
  213. hierarchy is a top-level certifying authority, which is trusted without a 
  214. certificate from any other certifying authority. The public key of the 
  215. top-level certifying authority must be independently known, for example by 
  216. being widely published.
  217.  
  218. The more familiar the sender is to the receiver of the message, the less 
  219. need there is to enclose, and to verify, certificates. If Alice sends 
  220. messages to Bob every day, Alice can enclose a certificate chain on the 
  221. first day, which Bob verifies. Bob thereafter stores Alice's public key 
  222. and no more certificates or certificate verifications are necessary. A sender 
  223. whose company is known to the receiver may need to enclose only one 
  224. certificate (issued by the company), whereas a sender whose company is 
  225. unknown to the receiver may need to enclose two certificates. A good rule of 
  226. thumb is to enclose just enough of a certificate chain so that the issuer of 
  227. the highest level certificate in the chain is well-known to the receiver.
  228.  
  229. According to the PKCS standards for public-key cryptography (see Question
  230. 8.9), every signature points to a certificate that validates the public 
  231. key of the signer. Specifically, each signature contains the name of the 
  232. issuer of the certificate and the serial number of the certificate. Thus 
  233. even if no certificates are enclosed with a message, a verifier can still 
  234. use the certificate chain to check the status of the public key.
  235.  
  236.  
  237. 3.7 Who issues certificates and how?
  238.  
  239. Certificates are issued by a certifying authority (CA), which can be any 
  240. trusted central administration willing to vouch for the identities of those 
  241. to whom it issues certificates. A company may issue certificates to its 
  242. employees, a university to its students, a town to its citizens. In 
  243. order to prevent forged certificates, the CA's public key must be trustworthy: 
  244. a CA must either publicize its public key or provide a certificate from a 
  245. higher-level CA attesting to the validity of its public key. The latter
  246. solution gives rise to hierarchies of CAs.
  247.  
  248. Certificate issuance proceeds as follows. Alice generates her own key 
  249. pair and sends the public key to an appropriate CA with some proof of her 
  250. identification. The CA checks the identification and takes any other steps
  251. necessary to assure itself that the request really did come from Alice, and 
  252. then sends her a certificate attesting to the binding between Alice and her 
  253. public key, along with a hierarchy of certificates verifying the CA's public 
  254. key. Alice can present this certificate chain whenever desired in order to 
  255. demonstrate the legitimacy of her public key. 
  256.  
  257. Since the CA must check for proper identification, organizations will find 
  258. it convenient to act as a CA for its own members and employees. There will 
  259. also be CAs that issue certificates to unaffiliated individuals.
  260.  
  261. Different CAs may issue certificates with varying levels of identification 
  262. requirements. One CA may insist on seeing a driver's license, another may 
  263. want the certificate request form to be notarized, yet another may want 
  264. fingerprints of anyone requesting a certificate. Each CA should publish 
  265. its own identification requirements and standards, so that verifiers 
  266. can attach the appropriate level of confidence in the certified name-key 
  267. bindings.
  268.  
  269. An example of a certificate-issuing protocol is Apple Computer's Open 
  270. Collaborative Environment (OCE). Apple OCE users can generate a key 
  271. pair and then request and receive a certificate for the public key; the
  272. certificate request must be notarized.
  273.  
  274.  
  275. 3.8 What is a CSU, or, How do certifying authorities store their private keys?
  276.  
  277. It is extremely important that private keys of certifying authorities are 
  278. stored securely, because compromise would enable undetectable forgeries. 
  279. One way to achieve the desired security is to store the key in a tamperproof
  280. box; such a box is called a Certificate Signing Unit, or CSU. The CSU would, 
  281. preferably, destroy its contents if ever opened, and be shielded against 
  282. attacks using electromagnetic radiation. Not even employees of the certifying 
  283. authority should have access to the private key itself, but only the ability 
  284. to use the private key in the process of issuing certificates. 
  285.  
  286. There are many possible designs for CSUs; here is a description of one design
  287. found in some current implementations. The CSU is activated by a set of data 
  288. keys, which are physical keys capable of storing digital information. The 
  289. data keys use secret-sharing technology such that several people must all 
  290. use their data keys to activate the CSU. This prevents one disgruntled CA 
  291. employee from producing phony certificates. 
  292.  
  293. Note that if the CSU is destroyed, say in a fire, no security is compromised.
  294. Certificates signed by the CSU are still valid, as long as the verifier uses 
  295. the correct public key. Some CSUs will be manufactured so that a lost private 
  296. key can be restored into a new CSU. See Question 3.10 for discussion of 
  297. lost CA private keys.
  298.  
  299. Bolt, Beranek, and Newman (BBN) currently sells a CSU, and RSA Data Security
  300. sells a full-fledged certificate issuing system built around the BBN CSU.
  301.  
  302.  
  303. 3.9 Are certifying authorities susceptible to attack?
  304.  
  305. One can think of many attacks aimed at the certifying authority, which must
  306. be prepared against them.
  307.  
  308. Consider the following attack. Suppose Bob wishes to impersonate Alice. 
  309. If Bob can convincingly sign messages as Alice, he can send a message to 
  310. Alice's bank saying ``I wish to withdraw $10,000 from my account. Please 
  311. send me the money.'' To carry out this attack, Bob generates a key pair and 
  312. sends the public key to a certifying authority saying ``I'm Alice. Here is 
  313. my public key. Please send me a certificate.'' If the CA is fooled and sends 
  314. him such a certificate, he can then fool the bank, and his attack will 
  315. succeed. In order to prevent such an attack the CA must verify that a 
  316. certificate request did indeed come from its purported author, i.e., it must 
  317. require sufficient evidence that it is actually Alice who is requesting the 
  318. certificate. The CA may, for example, require Alice to appear in person and 
  319. show a birth certificate. Some CAs may require very little identification, 
  320. but the bank should not honor messages authenticated with such low-assurance 
  321. certificates. Every CA must publicly state its identification requirements 
  322. and policies; others can then attach an appropriate level of confidence to 
  323. the certificates.
  324.  
  325. An attacker who discovers the private key of a certifying authority could 
  326. then forge certificates. For this reason, a certifying authority must take 
  327. extreme precautions to prevent illegitimate access to its private key. The 
  328. private key should be kept in a high-security box, known as a Certificate 
  329. Signing Unit, or CSU (see Question 3.8).
  330.  
  331. The certifying authority's public key might be the target of an extensive 
  332. factoring attack. For this reason, CAs should use very long keys, preferably 
  333. 1000 bits or longer, and should also change keys regularly. Top-level 
  334. certifying authorities are exceptions: it may not be practical for them to 
  335. change keys frequently because the key may be written into software used 
  336. by a large number of verifiers.
  337.  
  338. In another attack, Alice bribes Bob, who works for the certifying authority, 
  339. to issue to her a certificate in the name of Fred. Now Alice can send 
  340. messages signed in Fred's name and anyone receiving such a message will 
  341. believe it authentic because a full and verifiable certificate chain will 
  342. accompany the message. This attack can be hindered by requiring the 
  343. cooperation of two (or more) employees to generate a certificate; the 
  344. attacker now has to bribe two employees rather than one. For example, in 
  345. some of today's CSUs, three employees must each insert a data key containing 
  346. secret information in order to authorize the CSU to generate certificates. 
  347. Unfortunately, there may be other ways to generate a forged certificate by 
  348. bribing only one employee. If each certificate request is checked by only 
  349. one employee, that one employee can be bribed and slip a false request into 
  350. a stack of real certificate requests. Note that a corrupt employee cannot 
  351. reveal the certifying authority's private key, as long as it is properly 
  352. stored.
  353.  
  354. Another attack involves forging old documents. Alice tries to factor the 
  355. modulus of the certifying authority. It takes her 15 years, but she finally 
  356. succeeds, and she now has the old private key of the certifying authority. 
  357. The key has long since expired, but she can forge a certificate dated 15 
  358. years ago attesting to a phony public key of some other person, say Bob; she 
  359. can now forge a document with a signature of Bob dated 15 year ago, perhaps
  360. a will leaving everything to Alice. The underlying issue raised by this 
  361. attack is how to authenticate a signed document dated many years ago; this 
  362. issue is discussed in Question 3.17.
  363.  
  364. Note that these attacks on certifying authorities do not threaten the 
  365. privacy of messages between users, as might result from an attack on a 
  366. secret-key distribution center.
  367.  
  368.  
  369. 3.10 What if the certifying authority's key is lost or compromised? 
  370.  
  371. If the certifying authority's key is lost or destroyed but not compromised, 
  372. certificates signed with the old key are still valid, as long as the verifier
  373. knows to use the old public key to verify the certificate. 
  374.  
  375. In some CSU designs, encrypted backup copies of the CA's private key are
  376. kept. A CA which loses its key can then restore it by loading the encrypted 
  377. backup into the CSU, which can decrypt it using some unique information 
  378. stored inside the CSU; the encrypted backup can only be decrypted using the 
  379. CSU. If the CSU itself is destroyed, the manufacturer may be able to supply 
  380. another with the same internal information, thus allowing recovery of the key. 
  381.  
  382. A compromised CA key is a much more dangerous situation. An attacker who 
  383. discovers a certifying authority's private key can issue phony certificates 
  384. in the name of the certifying authority, which would enable undetectable 
  385. forgeries; for this reason, all precautions must be taken to prevent 
  386. compromise, including those outlined in Questions 3.8 and 3.9. If a 
  387. compromise does occur, the CA must immediately cease issuing certificates
  388. under its old key and change to a new key. If it is suspected that some phony 
  389. certificates were issued, all certificates should be recalled, and then 
  390. reissued with a new CA key. These measures could be relaxed somewhat if 
  391. certificates were registered with a digital time-stamping service (see 
  392. Question 3.18). Note that compromise of a CA key does not invalidate users'
  393. keys, but only the certificates that authenticate them. Compromise of a 
  394. top-level CA's key should be considered catastrophic, since the key may 
  395. be built into applications that verify certificates.
  396.  
  397.  
  398. 3.11 What are Certificate Revocation Lists (CRLs)?
  399.  
  400. A Certificate Revocation List (CRL) is a list of public keys that have been 
  401. revoked before their scheduled expiration date. There are several reasons why 
  402. a key might need to be revoked and placed on a CRL. A key might have been 
  403. compromised. A key might be used professionally by an individual for 
  404. a company; for example, the official name associated with a key might be 
  405. ``Alice Avery, Vice President, Argo Corp.'' If Alice were fired, her company 
  406. would not want her to be able to sign messages with that key and therefore 
  407. the company would place the key on the CRL. 
  408.  
  409. When verifying a signature, one can check the relevant CRL to make sure
  410. the signer's key has not been revoked. Whether it is worth the time to 
  411. perform this check depends on the importance of the signed document. 
  412.  
  413. CRLs are maintained by certifying authorities (CAs) and provide information 
  414. about revoked keys originally certified by the CA. CRLs only list current 
  415. keys, since expired keys should not be accepted in any case; when a revoked 
  416. key is past its original expiration date it is removed from the CRL. Although 
  417. CRLs are maintained in a distributed manner, there may be central 
  418. repositories for CRLs, that is, sites on networks containing the latest CRLs 
  419. from many organizations. An institution like a bank might want an in-house 
  420. CRL repository to make CRL searches feasible on every transaction.
  421.  
  422.  
  423. 3.12 What happens when a key expires?
  424.  
  425. In order to guard against a long-term factoring attack, every key must 
  426. have an expiration date after which it is no longer valid. The time to 
  427. expiration must therefore be much shorter than the expected factoring time, 
  428. or equivalently, the key length must be long enough to make the chances of 
  429. factoring before expiration extremely small. The validity period for a key 
  430. pair may also depend on the circumstances in which the key will be used, 
  431. although there will also be a standard period. The validity period, together
  432. with the value of the key and the estimated strength of an expected attacker, 
  433. then determines the appropriate key size.
  434.  
  435. The expiration date of a key accompanies the public key in a certificate
  436. or a directory listing. The signature verification program should check 
  437. for expiration and should not accept a message signed with an expired key. 
  438. This means that when one's own key expires, everything signed with it will
  439. no longer be considered valid. Of course, there will be cases where it is 
  440. important that a signed document be considered valid for a much longer period 
  441. of time; Question 3.17 discusses ways to achieve this.
  442.  
  443. After expiration, the user chooses a new key, which should be longer than 
  444. the old key, perhaps by several digits, to reflect both the performance 
  445. increase of computer hardware and any recent improvements in factoring 
  446. algorithms. Recommended key length schedules will likely be published. A user 
  447. may recertify a key that has expired, if it is sufficiently long and has not 
  448. been compromised. The certifying authority would then issue a new certificate 
  449. for the same key, and all new signatures would point to the new certificate 
  450. instead of the old. However, the fact that computer hardware continues to 
  451. improve argues for replacing expired keys with new, longer keys every few 
  452. years. Key replacement enables one to take advantage of the hardware 
  453. improvements to increase the security of the cryptosystem. Faster hardware 
  454. has the effect of increasing security, perhaps vastly, but only if key 
  455. lengths are increased regularly (see Question 4.5).
  456.  
  457.  
  458. 3.13 What happens if I lose my private key?
  459.  
  460. If your private key is lost or destroyed, but not compromised, you can no 
  461. longer sign or decrypt messages, but anything previously signed with the 
  462. lost key is still valid. This can happen, for example, if you forget the 
  463. password used to access your key, or if the disk on which the key is stored 
  464. is damaged. You need to choose a new key right away, to minimize the number 
  465. of messages people send you encrypted under your old key, messages which you 
  466. can no longer read. 
  467.  
  468.  
  469. 3.14 What happens if my private key is compromised?
  470.  
  471. If your private key is compromised, that is, if you suspect an attacker may 
  472. have obtained your private key, then you must assume that some enemy can
  473. read encrypted messages sent to you and forge your name on documents. The 
  474. seriousness of these consequences underscores the importance of protecting 
  475. your private key with extremely strong mechanisms (see Question 3.15).
  476.  
  477. You must immediately notify your certifying authority and have your old key 
  478. placed on a Certificate Revocation List (see Question 3.11); this will 
  479. inform people that the key has been revoked. Then choose a new key and obtain
  480. the proper certificates for it. You may wish to use the new key to re-sign 
  481. documents that you had signed with the compromised key; documents that had 
  482. been time-stamped as well as signed might still be valid. You should also 
  483. change the way you store your private key, to prevent compromise of the new 
  484. key.
  485.  
  486.  
  487. 3.15 How should I store my private key?
  488.  
  489. Private keys must be stored securely, since forgery and loss of privacy 
  490. could result from compromise. The private key should never be stored 
  491. anywhere in plaintext form. The simplest storage mechanism is to encrypt 
  492. the private key under a password and store the result on a disk. Of course, 
  493. the password itself must be maintained with high security, not written down 
  494. and not easily guessed. Storing the encrypted key on a disk that is not 
  495. accessible through a computer network, such as a floppy disk or a local 
  496. hard disk, will make some attacks more difficult. Ultimately, private keys 
  497. may be stored on portable hardware, such as a smart card. Furthermore, a 
  498. challenge-response protocol will be more secure than simple password access. 
  499. Users with extremely high security needs, such as certifying authorities, 
  500. should use special hardware devices to protect their keys (see Question 
  501. 3.8).
  502.  
  503.  
  504. 3.16 How do I find someone else's public key?
  505.  
  506. Suppose you want to find Bob's public key. There are several possible ways.
  507. You could call him up and ask him to send you his public key via e-mail; you 
  508. could request it via e-mail as well. Certifying authorities may provide
  509. directory services; if Bob works for company Z, look in the directory kept 
  510. by Z's certifying authority. Directories must be secure against unauthorized 
  511. tampering, so that users can be confident that a public key listed in the 
  512. directory actually belongs to the person listed. Otherwise, you might send 
  513. private encrypted information to the wrong person.
  514.  
  515. Eventually, full-fledged directories will arise, serving as online white or 
  516. yellow pages. If they are compliant with CCITT X.509 standards [19], the 
  517. directories will contain certificates as well as public keys; the presence 
  518. of certificates will lower the directories' security needs.
  519.  
  520.  
  521. 3.17 How can signatures remain valid beyond the expiration dates of their
  522.     keys, or, How do you verify a 20-year-old signature?
  523.  
  524. Normally, a key expires after, say, two years and a document signed with an 
  525. expired key should not be accepted. However, there are many cases where 
  526. it is necessary for signed documents to be regarded as legally valid 
  527. for much longer than two years; long-term leases and contracts are examples. 
  528. How should these cases be handled? Many solutions have been suggested but 
  529. it is unclear which will prove the best. Here are some possibilities.
  530.  
  531. One can have special long-term keys as well as the normal two-year keys. 
  532. Long-term keys should have much longer modulus lengths and be stored 
  533. more securely than two-year keys. If a long-term key expires in 50 
  534. years, any document signed with it would remain valid within that time. 
  535. A problem with this method is that any compromised key must remain on the 
  536. relevant CRL until expiration (see Question 3.11); if 50-year keys are 
  537. routinely placed on CRLs, the CRLs could grow in size to unmanageable 
  538. proportions. This idea can be modified as follows. Register the long-term 
  539. key by the normal procedure, i.e., for two years. At expiration time, if 
  540. it has not been compromised, the key can be recertified, that is, issued 
  541. a new certificate by the certifying authority, so that the key will be 
  542. valid for another two years. Now a compromised key only needs to be kept 
  543. on a CRL for at most two years, not fifty. 
  544.  
  545. One problem with the previous method is that someone might try to 
  546. invalidate a long-term contract by refusing to renew his key. This 
  547. problem can be circumvented by registering the contract with a digital 
  548. time-stamping service (see Question 3.18) at the time it is originally 
  549. signed. If all parties to the contract keep a copy of the time-stamp, 
  550. then each can prove that the contract was signed with valid keys. In 
  551. fact, the time-stamp can prove the validity of a contract even if one 
  552. signer's key gets compromised at some point after the contract was 
  553. signed. This time-stamping solution can work with all signed digital 
  554. documents, not just multi-party contracts.
  555.  
  556.  
  557. 3.18 What is a digital time-stamping service?
  558.  
  559. A digital time-stamping service (DTS) issues time-stamps which associate 
  560. a date and time with a digital document in a cryptographically strong way. 
  561. The digital time-stamp can be used at a later date to prove that an 
  562. electronic document existed at the time stated on its time-stamp. For 
  563. example, a physicist who has a brilliant idea can write about it with
  564. a word processor and have the document time-stamped. The time-stamp and
  565. document together can later prove that the scientist deserves the Nobel 
  566. Prize, even though an arch rival may have been the first to publish.
  567.  
  568. Here's one way such a system could work. Suppose Alice signs a document 
  569. and wants it time-stamped. She computes a message digest of the document 
  570. using a secure hash function (see Question 8.2) and then sends the 
  571. message digest (but not the document itself) to the DTS, which sends her in 
  572. return a digital time-stamp consisting of the message digest, the date and 
  573. time it was received at the DTS, and the signature of the DTS. Since the 
  574. message digest does not reveal any information about the content of the 
  575. document, the DTS cannot eavesdrop on the documents it time-stamps. Later, 
  576. Alice can present the document and time-stamp together to prove when the
  577. document was written. A verifier computes the message digest of the document, 
  578. makes sure it matches the digest in the time-stamp, and then verifies the 
  579. signature of the DTS on the time-stamp.
  580.  
  581. To be reliable, the time-stamps must not be forgeable. Consider the
  582. requirements for a DTS of the type just described. First, the DTS itself 
  583. must have a long key if we want the time-stamps to be reliable for, say,
  584. several decades. Second, the private key of the DTS must be stored with 
  585. utmost security, as in a tamperproof box. Third, the date and time must 
  586. come from a clock, also inside the tamperproof box, which cannot be reset 
  587. and which will keep accurate time for years or perhaps for decades. Fourth, 
  588. it must be infeasible to create time-stamps without using the apparatus 
  589. in the tamperproof box.
  590.  
  591. A cryptographically strong DTS using only software [4] has been 
  592. implemented by Bellcore; it avoids many of the requirements just 
  593. described, such as tamperproof hardware. The Bellcore DTS essentially 
  594. combines hash values of documents into data structures called binary 
  595. trees, whose ``root'' values are periodically published in the newspaper. 
  596. A time-stamp consists of a set of hash values which allow a verifier 
  597. to recompute the root of the tree. Since the hash functions are one-way 
  598. (see Question 8.2), the set of validating hash values cannot be forged.
  599. The time associated with the document by the time-stamp is the date of 
  600. publication.
  601.  
  602. The use of a DTS would appear to be extremely important, if not essential, 
  603. for maintaining the validity of documents over many years (see Question 
  604. 3.17). Suppose a landlord and tenant sign a twenty-year lease. The public 
  605. keys used to sign the lease will expire after, say, two years; solutions 
  606. such as recertifying the keys or resigning every two years with new keys 
  607. require the cooperation of both parties several years after the original 
  608. signing. If one party becomes dissatisfied with the lease, he or she may 
  609. refuse to cooperate. The solution is to register the lease with the DTS 
  610. at the time of the original signing; both parties would then receive a 
  611. copy of the time-stamp, which can be used years later to enforce the 
  612. integrity of the original lease.
  613.  
  614. In the future, it is likely that a DTS will be used for everything
  615. from long-term corporate contracts to personal diaries and letters.
  616. Today, if an historian discovers some lost letters of Mark Twain, their
  617. authenticity is checked by physical means. But a similar find 100 years
  618. from now may consist of an author's computer files; digital time-stamps 
  619. may be the only way to authenticate the find.
  620.  
  621. 4 Factoring and Discrete Log
  622.  
  623. 4.1 What is a one-way function?
  624.  
  625. A one-way function is a mathematical function that is significantly
  626. easier to perform in one direction (the forward direction) than in the 
  627. opposite direction (the inverse direction). One might, for example, 
  628. compute the function in minutes but only be able to compute the inverse 
  629. in months or years. A trap-door one-way function is a one-way function
  630. where the inverse direction is easy if you know a certain piece of
  631. information (the trap door), but difficult otherwise.
  632.  
  633.  
  634. 4.2 What is the significance of one-way functions for cryptography?
  635.  
  636. Public-key cryptosystems are based on (presumed) trap-door one-way 
  637. functions. The public key gives information about the particular instance 
  638. of the function; the private key gives information about the trap door. 
  639. Whoever knows the trap door can perform the function easily in both
  640. directions, but anyone lacking the trap door can perform the function only 
  641. in the forward direction. The forward direction is used for encryption and 
  642. signature verification; the inverse direction is used for decryption and 
  643. signature generation.
  644.  
  645. In almost all public-key systems, the size of the key corresponds to the 
  646. size of the inputs to the one-way function; the larger the key, the greater
  647. the difference between the efforts necessary to compute the function in the 
  648. forward and inverse directions (for someone lacking the trap door). For a 
  649. digital signature to be secure for years, for example, it is necessary to 
  650. use a trap-door one-way function with inputs large enough that someone 
  651. without the trap door would need many years to compute the inverse function.
  652.  
  653. All practical public-key cryptosystems are based on functions that are 
  654. believed to be one-way, but have not been proven to be so. This means that 
  655. it is theoretically possible that an algorithm will be discovered that can 
  656. compute the inverse function easily without a trap door; this development 
  657. would render any cryptosystem based on that one-way function insecure and 
  658. useless. 
  659.  
  660.  
  661. 4.3 What is the factoring problem?
  662.  
  663. Factoring is the act of splitting an integer into a set of smaller integers
  664. (factors) which, when multiplied together, form the original integer. 
  665. For example, the factors of 15 are 3 and 5; the factoring problem is 
  666. to find 3 and 5 when given 15. Prime factorization requires splitting an 
  667. integer into factors that are prime numbers; every integer has a unique 
  668. prime factorization. Multiplying two prime integers together is easy, but 
  669. as far as we know, factoring the product is much more difficult. 
  670.  
  671. 4.4 What is the significance of factoring in cryptography?
  672.  
  673. Factoring is the underlying, presumably hard problem upon which several 
  674. public-key cryptosystems are based, including RSA. Factoring an RSA
  675. modulus (see Question 2.1) would allow an attacker to figure out 
  676. the private key; thus, anyone who can factor the modulus can decrypt 
  677. messages and forge signatures. The security of RSA therefore depends on 
  678. the factoring problem being difficult. Unfortunately, it has not been 
  679. proven that factoring must be difficult, and there remains a possibility 
  680. that a quick and easy factoring method might be discovered (see Question 
  681. 4.7), although factoring researchers consider this possibility remote.
  682.  
  683. Factoring large numbers takes more time than factoring smaller numbers.
  684. This is why the size of the modulus in RSA determines how secure an 
  685. actual use of RSA is; the larger the modulus, the longer it would take
  686. an attacker to factor, and thus the more resistant to attack the RSA
  687. implementation is.
  688.  
  689.  
  690. 4.5 Has factoring been getting easier?
  691.  
  692. Factoring has become easier over the last fifteen years for two reasons:
  693. computer hardware has become more powerful, and better factoring algorithms 
  694. have been developed. 
  695.  
  696. Hardware improvement will continue inexorably, but it is important to 
  697. realize that hardware improvements make RSA more secure, not less.
  698. This is because a hardware improvement that allows an attacker to factor
  699. a number two digits longer than before will at the same time allow 
  700. a legitimate RSA user to use a key dozens of digits longer than before; 
  701. a user can choose a new key a dozen digits longer than the old one without
  702. any performance slowdown, yet a factoring attack will become much more
  703. difficult. Thus although the hardware improvement does help the attacker, 
  704. it helps the legitimate user much more. This general rule may fail in the 
  705. sense that factoring may take place using fast machines of the future, 
  706. attacking RSA keys of the past; in this scenario, only the attacker gets 
  707. the advantage of the hardware improvement. This consideration argues for 
  708. using a larger key size today than one might otherwise consider warranted. 
  709. It also argues for replacing one's RSA key with a longer key every few 
  710. years, in order to take advantage of the extra security offered by hardware 
  711. improvements. This point holds for other public-key systems as well.
  712.  
  713. Better factoring algorithms have been more help to the RSA attacker than have 
  714. hardware improvements. As the RSA system, and cryptography in general, have 
  715. attracted much attention, so has the factoring problem, and many researchers 
  716. have found new factoring methods or improved upon others. This has made 
  717. factoring easier, for numbers of any size and irrespective of the speed of 
  718. the hardware. However, factoring is still a very difficult problem.
  719.  
  720. Overall, any recent decrease in security due to algorithm improvement can 
  721. be offset by increasing the key size. In fact, between general computer 
  722. hardware improvements and special-purpose RSA hardware improvements, 
  723. increases in key size (maintaining a constant speed of RSA operations) have 
  724. kept pace or exceeded increases in algorithm efficiency, resulting in no net 
  725. loss of security. As long as hardware continues to improve at a faster rate 
  726. than that at which the complexity of factoring algorithms decreases, the 
  727. security of RSA will increase, assuming RSA users regularly increase their 
  728. key size by appropriate amounts. The open question is how much faster 
  729. factoring algorithms can get; there must be some intrinsic limit to 
  730. factoring speed, but this limit remains unknown.
  731.  
  732.  
  733. 4.6 What are the best factoring methods in use today?
  734.  
  735. Factoring is a very active field of research among mathematicians and
  736. computer scientists; the best factoring algorithms are mentioned below 
  737. with some references and their big-O asymptotic efficiency. O notation 
  738. measures how fast an algorithm is; it gives an upper bound on the number 
  739. of operations (to order of magnitude) in terms of n, the number to be 
  740. factored, and p, a prime factor of n. For textbook treatment of 
  741. factoring algorithms, see [41], [42], [47],
  742. and [11]; for a detailed explanation of 
  743. big-O notation, see [22].
  744.  
  745. Factoring algorithms come in two flavors, special purpose and general
  746. purpose; the efficiency of the former depends on the unknown factors, 
  747. whereas the efficiency of the latter depends on the number to be factored. 
  748. Special purpose algorithms are best for factoring numbers with small 
  749. factors, but the numbers used for the modulus in the RSA system do not 
  750. have any small factors. Therefore, general purpose factoring algorithms 
  751. are the more important ones in the context of cryptographic systems and 
  752. their security. 
  753.  
  754. Special purpose factoring algorithms include the Pollard rho method [66], 
  755. with expected running time O(sqrt(p)), and the Pollard p-1 method [67], 
  756. with running time O(p'), where p' is the largest prime factor of p-1. Both 
  757. of these take an amount of time that is exponential in the size of p, the 
  758. prime factor that they find; thus these algorithms are too slow for most 
  759. factoring jobs. The elliptic curve method (ECM) [50] is superior to these; 
  760. its asymptotic running time is O(exp (sqrt (2 ln p ln ln p)) ). The ECM is 
  761. often used in practice to find factors of randomly generated numbers; it is 
  762. not strong enough to factor a large RSA modulus.
  763.  
  764. The best general purpose factoring algorithm today is the number field 
  765. sieve [16], which runs in time approximately O(exp ( 1.9 (ln n)^{1/3} 
  766. (ln ln n)^{2/3}) ). It has only recently been implemented [15], and is 
  767. not yet practical enough to perform the most desired factorizations. 
  768. Instead, the most widely used general purpose algorithm is the multiple 
  769. polynomial quadratic sieve (mpqs) [77], which has running time 
  770. O(exp ( sqrt (ln n ln ln n)) ). The mpqs (and some of its variations) 
  771. is the only general purpose algorithm that has successfully factored 
  772. numbers greater than 110 digits; a variation known as ppmpqs [49]
  773. has been particularly popular.
  774.  
  775. It is expected that within a few years the number field sieve will overtake 
  776. the mpqs as the most widely used factoring algorithm, as the size of the 
  777. numbers being factored increases from about 120 digits, which is the current 
  778. threshold of general numbers which can be factored, to 130 or 140 digits. A 
  779. ``general number'' is one with no special form that might make it easier to 
  780. factor; an RSA modulus is a general number. Note that a 512-bit number has 
  781. about 155 digits. 
  782.  
  783. Numbers that have a special form can already be factored up to 155 digits 
  784. or more [48]. The Cunningham Project [14] keeps track of the factorizations 
  785. of numbers with these special forms and maintains a ``10 Most Wanted'' list 
  786. of desired factorizations. Also, a good way to survey current factoring 
  787. capability is to look at recent results of the RSA Factoring Challenge 
  788. (see Question 4.8).
  789.  
  790.  
  791. 4.7 What are the prospects for theoretical factoring breakthroughs?
  792.  
  793. Although factoring is strongly believed to be a difficult mathematical
  794. problem, it has not been proved so. Therefore there remains a possibility 
  795. that an easy factoring algorithm will be discovered. This development, which 
  796. could seriously weaken RSA, would be highly surprising and the possibility 
  797. is considered extremely remote by the researchers most actively engaged in 
  798. factoring research. 
  799.  
  800. Another possibility is that someone will prove that factoring is difficult.
  801. This negative breakthrough is probably more likely than the positive 
  802. breakthrough discussed above, but would also be unexpected at the current 
  803. state of theoretical factoring research. This development would guarantee 
  804. the security of RSA beyond a certain key size.
  805.  
  806.  
  807. 4.8 What is the RSA Factoring Challenge?
  808.  
  809. RSA Data Security Inc. (RSADSI) administers a factoring contest with 
  810. quarterly cash prizes. Those who factor numbers listed by RSADSI earn
  811. points toward the prizes; factoring smaller numbers earns more points than
  812. factoring larger numbers. Results of the contest may be useful to those who 
  813. wish to know the state of the art in factoring; the results show the size 
  814. of numbers factored, which algorithms are used, and how much time was 
  815. required to factor each number. Send e-mail to challenge-info@rsa.com 
  816. for information. 
  817.  
  818.  
  819. 4.9 What is the discrete log problem?
  820.  
  821. The discrete log problem, in its most common formulation, is to find
  822. the exponent x in the formula y=g^x mod p; in other words, it seeks to 
  823. answer the question, To what power must g be raised in order to obtain 
  824. y, modulo the prime number p? There are other, more general, formulations 
  825. as well.
  826.  
  827. Like the factoring problem, the discrete log problem is believed to be
  828. difficult and also to be the hard direction of a one-way function. For 
  829. this reason, it has been the basis of several public-key cryptosystems,
  830. including the ElGamal system and DSS (see Questions 2.15 and 6.8). The 
  831. discrete log problem bears the same relation to these systems as factoring 
  832. does to RSA: the security of these systems rests on the assumption that 
  833. discrete logs are difficult to compute.
  834.  
  835. The discrete log problem has received much attention in recent years; 
  836. descriptions of some of the most efficient algorithms can be found in 
  837. [47], [21], and [33]. The best discrete log problems have expected 
  838. running times similar to that of the best factoring algorithms. Rivest 
  839. [72] has analyzed the expected time to solve discrete log both in terms 
  840. of computing power and money.
  841.  
  842.  
  843. 4.10 Which is easier, factoring or discrete log?
  844.  
  845. The asymptotic running time of the best discrete log algorithm is
  846. approximately the same as for the best general purpose factoring
  847. algorithm. Therefore, it requires about as much effort to solve
  848. the discrete log problem modulo a 512-bit prime as to factor a 
  849. 512-bit RSA modulus.  One paper [45] cites experimental evidence 
  850. that the discrete log problem is slightly harder than factoring: 
  851. the authors suggest that the effort necessary to factor a 110-digit 
  852. integer is the same as the effort to solve discrete logarithms modulo 
  853. a 100-digit prime. This difference is so slight that it should not 
  854. be a significant consideration when choosing a cryptosystem.
  855.  
  856. Historically, it has been the case that an algorithmic advance in either 
  857. problem, factoring or discrete logs, was then applied to the other. This 
  858. suggests that the degrees of difficulty of both problems are closely 
  859. linked, and that any breakthrough, either positive or negative, will affect 
  860. both problems equally.
  861.  
  862.  
  863. 5 DES
  864.  
  865. 5.1 What is DES?
  866.  
  867. DES is the Data Encryption Standard, an encryption block cipher defined 
  868. and endorsed by the U.S. government in 1977 as an official standard;
  869. the details can be found in the official FIPS publication [59]. It was 
  870. originally developed at IBM. DES has been extensively studied over the 
  871. last 15 years and is the most well-known and widely used cryptosystem 
  872. in the world. 
  873.  
  874. DES is a secret-key, symmetric cryptosystem: when used for communication,
  875. both sender and receiver must know the same secret key, which is used both
  876. to encrypt and decrypt the message. DES can also be used for single-user
  877. encryption, such as to store files on a hard disk in encrypted form. In
  878. a multi-user environment, secure key distribution may be difficult; 
  879. public-key cryptography was invented to solve this problem (see Question 
  880. 1.3). DES operates on 64-bit blocks with a 56-bit key. It was designed to 
  881. be implemented in hardware, and its operation is relatively fast. It works
  882. well for bulk encryption, that is, for encrypting a large set of data. 
  883.  
  884. NIST (see Question 7.1) has recertified DES as an official U.S. government 
  885. encryption standard every five years; DES was last recertified in 1993, 
  886. by default. NIST has indicated, however, that it may not recertify DES 
  887. again.
  888.  
  889.  
  890. 5.2 Has DES been broken?
  891.  
  892. DES has never been ``broken'', despite the efforts of many researchers 
  893. over many years. The obvious method of attack is brute-force exhaustive 
  894. search of the key space; this takes 2^{55} steps on average. Early on 
  895. it was suggested [28] that a rich and powerful enemy could build a 
  896. special-purpose computer capable of breaking DES by exhaustive search 
  897. in a reasonable amount of time. Later, Hellman [36] showed a time-memory 
  898. trade-off that allows improvement over exhaustive search if memory space 
  899. is plentiful, after an exhaustive precomputation. These ideas fostered 
  900. doubts about the security of DES. There were also accusations that the 
  901. NSA had intentionally weakened DES. Despite these suspicions, no feasible 
  902. way to break DES faster than exhaustive search was discovered. The cost 
  903. of a specialized computer to perform exhaustive search has been estimated 
  904. by Wiener at one million dollars [80]. 
  905.  
  906. Just recently, however, the first attack on DES that is better than 
  907. exhaustive search was announced by Eli Biham and Adi Shamir [6,7],
  908. using a new technique known as differential cryptanalysis. This attack 
  909. requires encryption of 2^{47} chosen plaintexts, i.e., plaintexts chosen 
  910. by the attacker. Although a theoretical breakthrough, this attack is 
  911. not practical under normal circumstances because it requires the attacker 
  912. to have easy access to the DES device in order to encrypt the chosen 
  913. plaintexts. Another attack, known as linear cryptanalysis [51], does not 
  914. require chosen plaintexts.
  915.  
  916. The consensus is that DES, when used properly, is secure against all but
  917. the most powerful enemies. In fact, triple encryption DES (see Question 
  918. 5.3) may be secure against anyone at all. Biham and Shamir have stated 
  919. that they consider DES secure. It is used extensively in a wide variety 
  920. of cryptographic systems, and in fact, most implementations of public-key 
  921. cryptography include DES at some level. 
  922.  
  923.  
  924. 5.3 How does one use DES securely?
  925.  
  926. When using DES, there are several practical considerations that can
  927. affect the security of the encrypted data. One should change DES keys 
  928. frequently, in order to prevent attacks that require sustained data 
  929. analysis. In a communications context, one must also find a secure way 
  930. of communicating the DES key to both sender and receiver. Use of RSA or 
  931. some other public-key technique for key management solves both these 
  932. issues: a different DES key is generated for each session, and secure 
  933. key management is provided by encrypting the DES key with the receiver's 
  934. RSA public key. RSA, in this circumstance, can be regarded as a tool for 
  935. improving the security of DES (or any other secret key cipher).
  936.  
  937. If one wishes to use DES to encrypt files stored on a hard disk, it is
  938. not feasible to frequently change the DES keys, as this would entail 
  939. decrypting and then re-encrypting all files upon each key change. Instead,
  940. one should have a master DES key with which one encrypts the list of DES
  941. keys used to encrypt the files; one can then change the master key 
  942. frequently without much effort.
  943.  
  944. A powerful technique for improving the security of DES is triple encryption, 
  945. that is, encrypting each message block under three different DES keys in 
  946. succession. Triple encryption is thought to be equivalent to doubling the 
  947. key size of DES, to 112 bits, and should prevent decryption by an enemy 
  948. capable of single-key exhaustive search [53]. Of course, using 
  949. triple-encryption takes three times as long as single-encryption DES.
  950.  
  951. Aside from the issues mentioned above, DES can be used for encryption in 
  952. several officially defined modes. Some are more secure than others. ECB 
  953. (electronic codebook) mode simply encrypts each 64-bit block of plaintext 
  954. one after another under the same 56-bit DES key. In CBC (cipher block 
  955. chaining) mode, each 64-bit plaintext block is XORed with the previous 
  956. ciphertext block before being encrypted with the DES key. Thus the encryption 
  957. of each block depends on previous blocks and the same 64-bit plaintext 
  958. block can encrypt to different ciphertext depending on its context in the 
  959. overall message. CBC mode helps protect against certain attacks, although 
  960. not against exhaustive search or differential cryptanalysis. CFB (cipher 
  961. feedback) mode allows one to use DES with block lengths less than 64 bits. 
  962. Detailed descriptions of the various DES modes can be found in [60].
  963.  
  964. In practice, CBC is the most widely used mode of DES, and is specified in 
  965. several standards. For additional security, one could use triple encryption 
  966. with CBC, but since single DES in CBC mode is usually considered secure 
  967. enough, triple encryption is not often used.
  968.  
  969.  
  970. 5.4 Can DES be exported from the U.S.?
  971.  
  972. Export of DES, either in hardware or software, is strictly regulated by 
  973. the U.S. State Department and the NSA (see Question 1.6). The government 
  974. rarely approves export of DES, despite the fact that DES is widely 
  975. available overseas; financial institutions and foreign subsidiaries of 
  976. U.S. companies are exceptions. 
  977.  
  978.  
  979. 5.5 What are the alternatives to DES?
  980.  
  981. Over the years, various bulk encryption algorithms have been designed as 
  982. alternatives to DES. One is FEAL (Fast Encryption ALgorithm), a cipher for 
  983. which attacks have been discovered [6], although new versions have been 
  984. proposed. Another recently proposed cipher designed by Lai and Massey 
  985. [44] and known as IDEA seems promising, although it has not yet received 
  986. sufficient scrutiny to instill full confidence in its security. The U.S. 
  987. government recently announced a new algorithm called Skipjack (see Question 
  988. 6.5) as part of its Capstone project. Skipjack operates on 64-bit blocks of 
  989. data, as does DES, but uses 80-bit keys, as opposed to 56-bit keys in DES. 
  990. However, the details of Skipjack are classified, so Skipjack is only 
  991. available in hardware from government-authorized manufacturers.
  992.  
  993. Rivest has developed the ciphers RC2 and RC4 (see Question 8.6), which can 
  994. be made as secure as necessary because they use variable key sizes. Faster 
  995. than DES, at least in software, they have the further advantage of special 
  996. U.S. government status whereby the export approval is simplified and 
  997. expedited if the key size is limited to 40 bits. 
  998.  
  999.  
  1000. 5.6 Is DES a group?
  1001.  
  1002. It has been frequently asked whether DES encryption is closed under
  1003. composition; i.e., is encrypting a plaintext under one DES key and
  1004. then encrypting the result under another key always equivalent to a 
  1005. single encryption under a single key? Algebraically, is DES a group?
  1006. If so, then DES might be weaker than would otherwise be the case; see 
  1007. [39] for a more complete discussion. However, the answer is no, DES 
  1008. is not a group [18]; this issue was settled only recently, after many 
  1009. years of speculation and circumstantial evidence. This result seems to 
  1010. imply that techniques such as triple encryption do in fact increase 
  1011. the security of DES.
  1012.  
  1013.  
  1014.        --------------------------------------------
  1015.  
  1016. RSA Laboratories is the research and consultation division of RSA Data
  1017. Security, Inc., the company founded by the inventors of the RSA
  1018. public-key cryptosystem. RSA Laboratories reviews, designs and
  1019. implements secure and efficient cryptosystems of all kinds. Its
  1020. clients include government agencies, telecommunications companies,
  1021. computer manufacturers, software developers, cable TV broadcasters,
  1022. interactive video manufacturers, and satellite broadcast companies,
  1023. among others.
  1024.  
  1025. For more information about RSA Laboratories, call or write to 
  1026.                         RSA Laboratories
  1027.                         100 Marine Parkway
  1028.                         Redwood City, CA 94065
  1029.                         (415) 595-7703
  1030.                         (415) 595-4126 (fax)
  1031.  
  1032.  
  1033.  
  1034. PKCS, RSAREF and RSA Laboratories are trademarks of RSA Data
  1035. Security, Inc. All other trademarks belong to their respective 
  1036. companies.
  1037.  
  1038. This document is available in ASCII, Postscript, and Latex formats
  1039. via anonymous FTP to rsa.com:/pub/faq.
  1040.  
  1041. Please send comments and corrections to faq-editor@rsa.com.
  1042.  
  1043.  
  1044.  
  1045. ===
  1046. DISTRIBUTION: How to obtain this document
  1047.  
  1048. This document has been brought to you in part by CRAM, involved in the
  1049. redistribution of valuable information to a wider USENET audience (see
  1050. below). The most recent version of this document can be obtained via
  1051. the author's instructions above. The following directions apply to 
  1052. retrieve the possibly less-current USENET FAQ version.
  1053.  
  1054.   FTP
  1055.   ---
  1056.     This FAQ is available from the standard FAQ server rtfm.mit.edu via
  1057.     FTP in the directory /pub/usenet/news.answers/cryptography-faq/rsa/
  1058.  
  1059.   Email
  1060.   -----
  1061.     Email requests for FAQs go to mail-server@rtfm.mit.edu with commands
  1062.     on lines in the message body, e.g. `help' and `index'.
  1063.  
  1064.   Usenet
  1065.   ------
  1066.     This FAQ is posted every 21 days to the groups
  1067.  
  1068.       sci.crypt
  1069.       talk.politics.crypto
  1070.       alt.security.ripem
  1071.       sci.answers
  1072.       talk.answers
  1073.       alt.answers
  1074.       news.answers
  1075.  
  1076. _ _, _ ___ _, __,  _, _  _, ___ _  _, _, _ _  _, __,  _, _  _ ___ __,
  1077. | |\ | |_ / \ |_)  |\/| / \  |  | / \ |\ | | (_  |_) / \ |  | |_  | )
  1078. | | \| |  \ / | \  |  | |~|  |  | \ / | \| | , ) |   \ / |/\| |   |~\
  1079. ~ ~  ~ ~   ~  ~  ~ ~  ~ ~ ~  ~  ~  ~  ~  ~ ~  ~  ~    ~  ~  ~ ~~~ ~  ~
  1080.  
  1081. ===
  1082. CRAM: The Cyberspatial Reality Advancement Movement
  1083.  
  1084. In an effort to bring valuable information to the masses, and as a
  1085. service to motivated information compilers, a member of CRAM can help
  1086. others unfamiliar with Usenet `publish' their documents for
  1087. widespread dissemination via the FAQ structure, and act as a
  1088. `sponsor' knowledgable in the submissions process. This document is
  1089. being distributed under this arrangement.
  1090.  
  1091. We have found these compilations tend to appear on various mailing
  1092. lists and are valuable enough to deserve wider distribution. If you
  1093. know of an existing compilation of Internet information that is not
  1094. currently a FAQ, please contact us and we may `sponsor' it. The
  1095. benefits to the author include:
  1096.  
  1097. - use of the existing FAQ infrastructure for distribution:
  1098.   - automated mail server service
  1099.   - FTP archival
  1100.   - automated posting
  1101.  
  1102. - a far wider audience that can improve the quality, accuracy, and 
  1103.   coverage of the document enormously through email feedback
  1104.  
  1105. - potential professional inquiries for the use of your document in 
  1106.   other settings, such as newsletters, books, etc.
  1107.  
  1108. - with us as your sponsor, we will also take care of the 
  1109.   technicalities in the proper format of the posted version and 
  1110.   updating procedures, leaving you free of the `overhead' to focus on 
  1111.   the basic updates alone
  1112.  
  1113. The choice of who we `sponsor' is entirely arbitrary. You always have
  1114. the option of handling the submission process yourself.  See the FAQ
  1115. submission guidelines FAQ in news.answers. 
  1116.  
  1117. For information, send mail to <tmp@netcom.com>.
  1118.  
  1119.  \   \   \   \   \   \   \   \   \   |   /   /   /   /   /   /   /   /   /   /
  1120.           _______       ________          _____        _____  _____
  1121.          ///   \\\      |||   \\\        /// \\\       |||\\\///|||
  1122.         |||     ~~      |||   ///       |||   |||      ||| \\// |||
  1123.         |||     __      |||~~~\\\       |||~~~|||      |||  ~~  |||
  1124.          \\\   ///      |||    \\\      |||   |||      |||      |||
  1125.           ~~~~~~~       ~~~     ~~~     ~~~   ~~~      ~~~      ~~~
  1126.  /   /   /   /   /   /   /   /   /   |   \   \   \   \   \   \   \   \   \   \
  1127.  
  1128. C y b e r s p a t i a l  R e a l i t y  A d v a n c e m e n t  M o v e m e n t
  1129.  
  1130. * CIVILIZING CYBERSPACE: send `info cypherwonks' to majordomo@lists.eunet.fi *
  1131.  
  1132.  
  1133.